当ChatGPT杀入学术出版领域,有人开始围堵,有人悄悄打开大门
The following article is from 深究科学 Author 张钟鑫
导读
最近,智能聊天机器人ChatGPT火到了天际。
它能够通过学习和理解人类的语言来进行对话,还能根据聊天内容的上下文进行互动,像人一样来沟通交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。
除此之外,它还能生产类似论文这样的高度浓缩人类智慧的作品。
目前,全球不少学术期刊出版社明令禁止或者限制旗下的作者使用ChatGPT。这是由于机器人撰稿本质是“模仿”,信息的来源依赖互联网上的已有信息,但整合后生成文章却具有很高的可读性。
出版社十分担忧——使用ChatGPT可能会造成新闻的不实报道,或者出现抄袭他人学术作品的现象,所以对其明令禁止。
也有出版商开始默认ChatGPT的存在,因为不管怎样“围追堵截”,它已经在改变人类社会方方面面。
最近,它在学术出版领域也引起了血雨腥风,一度让很多期刊将它拒之门外。《科学》明确表示,禁止在提交的论文中使用任何聊天机器人项目所编撰的文本。
尽管ChatGPT遭到业界大佬的“封杀令”,但却有更多的学者对它的智能产生了浓厚的兴趣。
此前,《金融研究快报》上就刊登了一篇有关ChatGPT的研究报告。报告显示它可以独立撰写出一篇金融论文,并且论文内容能被相关的学术期刊所接受。
许多学者提出,学术出版商不应将ChatGPT视为威胁,可以通过“改造”物尽其用,把它当作一种低成本甚至免费的电子编写助手。
PART 01
人机结合,让学术研究锦上添花
在传统的论文撰写过程中,通常会有四个阶段:理论研究、文献综述、数据收集以及测试评估。研究人员于是基于此,对ChatGPT编写程序进行改造:
第二阶段,研究人员在编写程序中添加了不到200份与所给话题相关的现有研究摘要,要求ChatGPT在撰稿时参考这些文献;
第三阶段,收集数据时,研究人员会添加“领域专业知识”,让论文信源更加可靠;
第四阶段,研究人员阅读计算机程序生成的内容,再给出改进建议。
之后进入测试评估环节,人机结合的文章由32名专业的评审人员进行审核,判断其内容的准确性和新颖性,以及是否达到学术期刊发表标准。
最后,专家评审员普遍认为最后的研究成果都是可以被学界所认同的。这无疑是个重磅消息:使用ChatGPT能够产生高质量的学术研究内容。
PART 02
ChatGPT撰写的论文有优劣之分
当然,人机结合的文章并非完美无瑕。
《金融研究快报》刊登的这项研究结果也反映出ChatGPT存在一些潜在缺陷。专家评审对ChatGPT作品研究的四个阶段给出了不同评分。
理论研究和数据收集这两个阶段往往广受好评,而文献综述和测试评估则评分较低,但仍在学术可接受的范围之内。
对此,研究人员猜测,这是由于ChatGPT更擅长直接识别和采集外部文本的信息。当编写程序任务更复杂时,它对信息的处理就不会像真人思维那么灵活,而文献综述和测试评估往往属于这一类。
所以加入人工对专业领域的知识输出,能够帮助ChatGPT机器人更进一步。换句话说,人类可结合ChatGPT的优势,让论文的产出更高效和便捷。
PART 03
学术伦理仍旧是个大问题
ChatGPT是一种工具,即使不需要学者输出专业知识,它也能产生看似合理的内容。而人机结合,则能生成一篇专业性更高的文章。
但问题又回到了起点,人机结合的文献就能完全保证所有信源的可靠性吗?
学术诚信问题在业内已经是一个热门且紧迫的问题,业界一家知名的学术打假网站Retraction Watch就报道了许多学术造假的负面事例。
而ChatGPT智能软件的出现和应用会让科研诚信变得更糟吗?答案是有可能的。但也不能一概而论,或许在专业研究人员的监管下这项技术可以变得更好。
AI产品发展迅猛,但同时也会带来新的问题,对于创造力的概念界定和创造性想法所产生的知识产权界定会变得更加模糊,这个问题目前也还没有专家能给出确切答案。
ChatGPT的出现,对于那些缺乏传统人力研究援助资金的研究人员群体来说,比如新兴经济研究人员、研究生和早期职业研究人员等,也许是雪中送炭。
有关ChatGPT等新兴AI产品的伦理界定,也会随着科学技术的发展不断完善。
推荐阅读
2006年的重磅论文造假,直到2022年才被人揭露…why?why?why?